Deep Q-Network(DQN):一种将深度神经网络与Q-learning结合的强化学习方法,用神经网络近似动作价值函数 (Q(s,a)),常用于在高维状态输入(如像素图像)下学习决策策略。常见关键技巧包括经验回放(experience replay)与目标网络(target network)以提升训练稳定性。
/ˌdiːp ˈkjuː ˌnɛtˈwɝːk/
The agent learned to play the game using a deep Q-network.
智能体使用深度Q网络学会了玩这款游戏。
By combining experience replay with a deep Q-network, the researchers stabilized training and achieved strong performance on Atari benchmarks.
通过将经验回放与深度Q网络结合,研究人员稳定了训练,并在Atari基准测试上取得了很强的表现。
Deep Q-Network由三部分构成:deep(深度的)指深度学习中的多层神经网络;Q来自强化学习里的Q-function / Q-value(动作价值)概念(源于Q-learning命名传统);network(网络)指用神经网络来近似 (Q(s,a))。该术语因2010年代中期DeepMind在Atari游戏上的突破性成果而广泛流行。